iT邦幫忙

2023 iThome 鐵人賽

DAY 17
0
AI & Data

夥伴們!一起航向AWS Certified Machine Learning Specialty的偉大航道吧!系列 第 17

Day 17 第三站 Modeling - 簡易的看常見的Deep Learning模型架構

  • 分享至 

  • xImage
  •  

根據不同的應用場景,如何選用相對應的Deep Learning模型架構呢? 今天我們一起來看看幾個常用的模型架構和背後的運作原理。

1. CNN

應用場景

適用於影像類型的資料應用。例如,識別某一張圖是否為貓或狗的影像分類問題。或是捕捉某一張圖片內的人臉位置,這種物件偵測的問題。

模型運作原理

以圖片分類為例說明如下:

  • 輸入:圖片長寬為W和H
  • 過程:
    Step 1. 首先,定義一個權重矩陣叫做Kernel,矩陣大小為nxn。
    Step 2. 接著,我們讓這個矩陣在WXH的圖片上,由左到右,由上到下去移動,必且每次移動都和圖片上相對應的pixel去相乘,如此到最後,我們得到一個Convolved Feature Matrix。
    Step 3. 針對Convolved Feature Matrix,我們可接著以Max Pooling方式,依序去計算Convolved Feature Matrix特定範圍內的最大數值,如此down sampling我們的Convolved Feature Matrix。由於Max Pooling讓後續所需要學習權重數量減少,有助於減少模型Overfitting問題。(因為模型太複雜,而導致模型訓練成績很高,實際上卻無法被通用的使用。)
    Step 4. 最後,我們可以把Matrix拉平(Flatten),連接到輸出層的激活函數,來做預測。
  • 輸出:分類機率

經典架構

  • AlextNet
  • GoogleLeNet
  • ResNet

2. RNN

應用場景

適用於時間序列類型的資料應用。例如,外語的翻譯、股票預測等。

模型運作原理

輸入:時間序列資料
原理:神經網路每一次除了看當前的輸入,也會將前一次的輸出納入考量,確保參數的訓練考量到前後資訊的關係。
輸出:時間序列的目標值

經典架構

  • RNN
  • LSTM
  • GRU

问题 1:CNN的层次结构

问题: CNN通常包含哪些类型的层?

A) 输入层、隐藏层、输出层
B) 卷积层、池化层、全连接层
C) 循环层、嵌入层、注意力层
D) 编码器层、解码器层、注意力层

答案:B) 卷积层、池化层、全连接层

解释: CNN通常包含卷积层(用于提取特征)、池化层(用于降维和保留重要信息)以及全连接层(用于输出预测结果)。

问题 2:RNN的循环连接

问题: RNN之所以称为"循环"神经网络,是因为它具有什么样的连接方式?

A) 单向连接
B) 双向连接
C) 前向连接
D) 自反馈连接

答案:D) 自反馈连接

解释: RNN的循环连接是指神经网络内部的连接方式,其中神经元的输出会成为下一个时间步的输入,从而允许信息在网络内循环传递。


上一篇
Day 16 第三站 Modeling - 你被激到了嗎?激活函數 Activation Function
下一篇
Day 18 第三站 Modeling - 來個不一樣的模型訓練 Transfer Learning and Ensemble Learning
系列文
夥伴們!一起航向AWS Certified Machine Learning Specialty的偉大航道吧!30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言